机器人控制

AgentGen

AgentGen是一款由香港大学与微软联合研发的AI项目框架,旨在通过自动生成多样化环境和任务,显著提升大语言模型(LLM)的规划能力。其核心技术包括环境生成、任务生成和动态难度调节,支持零样本生成和指令微调,适用于机器人控制、智能家居等多个领域。

TinyVLA

TinyVLA是一种轻量级的视觉-语言-动作(VLA)模型,专为机器人操控设计。它通过结合多模态模型和扩散策略解码器,实现了快速推理、数据高效和多任务学习的能力,并在泛化性能上表现优异。TinyVLA可应用于家庭、工业、服务等多个领域,具有广泛的实用价值。

VideoAgent

VideoAgent是一款基于自改进机制的视频生成系统,结合图像观察与语言指令生成机器人控制视频计划。它采用自我条件一致性方法优化视频质量,通过预训练视觉-语言模型反馈和实际执行数据的收集,持续提升生成效果,减少幻觉内容并提高任务成功率。VideoAgent在模拟环境中有优异表现,并已应用于机器人控制、模拟训练、教育研究、游戏开发以及电影制作等领域,展现出广泛的应用潜力。

GR00T

GR00T-Teleop是NVIDIA Isaac GR00T系统的一部分,用于远程操作数据的采集与处理。它基于NVIDIA CloudXR技术连接高保真头显设备,实现手部跟踪数据与机器人环境视图的实时双向传输,支持用户对机器人进行直观控制。该工具为机器人训练、复杂任务执行及危险环境操作提供高质量数据支持,具备低延迟、高精度和强交互性等特点。

VideoWorld

VideoWorld是由北京交通大学、中国科学技术大学与字节跳动合作开发的深度生成模型,能够通过未标注视频数据学习复杂知识,包括规则、推理和规划能力。其核心技术包括自回归视频生成、潜在动态模型(LDM)和逆动态模型(IDM),支持长期推理和跨环境泛化。该模型在围棋和机器人控制任务中表现优异,且具备向自动驾驶、智能监控等场景扩展的潜力。

HUGWBC

HUGWBC是由上海交通大学与上海AI Lab联合开发的人形机器人全身控制器,支持多种自然步态和精细参数调整,具备高鲁棒性和实时外部干预能力。基于强化学习和不对称训练框架,实现从模拟到现实的高效迁移,适用于复杂地形导航、动态任务执行及人机协作等多种场景。

GO

GO-1是智元机器人推出的首个通用具身基座模型,采用ViLLA架构,结合多模态大模型与混合专家系统,具备场景感知、动作理解和精细执行能力。支持小样本快速泛化、跨本体部署与持续进化,广泛应用于零售、制造、家庭及科研等领域,推动具身智能技术发展。

BEHAVIOR Robot Suite

BEHAVIOR Robot Suite(BRS)是斯坦福大学李飞飞团队研发的机器人操作框架,专注于实现全身协调与复杂家务任务。它结合了低成本遥操作接口JoyLo和多模态学习算法WB-VIMA,提升机器人在真实环境中的适应性和操作精度。适用于家务自动化、垃圾处理、衣物整理等多个场景,具备高度灵活性和故障恢复能力。

Gemini Robotics

Gemini Robotics 是谷歌 DeepMind 基于 Gemini 2.0 开发的机器人系统,融合视觉-语言-动作模型,支持复杂任务执行与环境适应。具备三维空间理解、物体检测、轨迹预测和开放词汇指令执行能力,适用于工业制造、物流仓储、家庭服务、医疗健康等多个领域。系统通过数据驱动训练,结合真实操作与多模态信息,实现高效、灵活的机器人控制。

VPP

VPP(Video Prediction Policy)是清华大学与星动纪元联合开发的AIGC机器人模型,基于视频扩散模型实现未来场景预测与动作生成。支持高频预测与跨机器人本体学习,显著降低对真实数据的依赖。在复杂任务中表现出色,适用于家庭、工业、医疗、教育等多个领域。其开源特性推动了具身智能机器人技术的发展。